估计与机器学习预测(ML)模型相关的不确定性对于评估其稳健性和预测能力至关重要。在此提交中,我们介绍了Mapie(模型不可知的预测间隔估计器),这是一个开源Python库,可量化单输出回归和多类分类任务的ML模型的不确定性。Mapie实施了保形预测方法,使用户可以轻松地计算出在边际覆盖范围上具有强大理论保证的不确定性,并在模型或基础数据分布上进行了轻微的假设。Mapie托管在Scikit-Learn-Contrib上,完全“ Scikit-Learn兼容”。因此,它接受带有Scikit-Learn API的任何类型的回归器或分类器。该库可在以下网址获得:https://github.com/scikit-learn-contrib/mapie/。
translated by 谷歌翻译
Imperfect information games (IIG) are games in which each player only partially observes the current game state. We study how to learn $\epsilon$-optimal strategies in a zero-sum IIG through self-play with trajectory feedback. We give a problem-independent lower bound $\mathcal{O}(H(A_{\mathcal{X}}+B_{\mathcal{Y}})/\epsilon^2)$ on the required number of realizations to learn these strategies with high probability, where $H$ is the length of the game, $A_{\mathcal{X}}$ and $B_{\mathcal{Y}}$ are the total number of actions for the two players. We also propose two Follow the Regularize leader (FTRL) algorithms for this setting: Balanced-FTRL which matches this lower bound, but requires the knowledge of the information set structure beforehand to define the regularization; and Adaptive-FTRL which needs $\mathcal{O}(H^2(A_{\mathcal{X}}+B_{\mathcal{Y}})/\epsilon^2)$ plays without this requirement by progressively adapting the regularization to the observations.
translated by 谷歌翻译
Due mostly to its application to cognitive radio networks, multiplayer bandits gained a lot of interest in the last decade. A considerable progress has been made on its theoretical aspect. However, the current algorithms are far from applicable and many obstacles remain between these theoretical results and a possible implementation of multiplayer bandits algorithms in real cognitive radio networks. This survey contextualizes and organizes the rich multiplayer bandits literature. In light of the existing works, some clear directions for future research appear. We believe that a further study of these different directions might lead to theoretical algorithms adapted to real-world situations.
translated by 谷歌翻译
The workhorse of machine learning is stochastic gradient descent. To access stochastic gradients, it is common to consider iteratively input/output pairs of a training dataset. Interestingly, it appears that one does not need full supervision to access stochastic gradients, which is the main motivation of this paper. After formalizing the "active labeling" problem, which focuses on active learning with partial supervision, we provide a streaming technique that provably minimizes the ratio of generalization error over the number of samples. We illustrate our technique in depth for robust regression.
translated by 谷歌翻译
上下文强盗算法广泛用于域中,其中期望通过利用上下文信息提供个性化服务,这可能包含需要保护的敏感信息。灵感来自这种情况,我们研究了差异隐私(DP)约束的上下文线性强盗问题。虽然文献专注于集中式(联合DP)或本地(本地DP)隐私,但我们考虑了隐私的洗牌模型,我们表明可以在JDP和LDP之间实现隐私/实用权折衷。通过利用隐私和批处理从匪徒进行洗牌,我们介绍了一个遗憾的遗留率$ \ widetilde {\ mathcal {o}}(t ^ {2/3} / \ varepsilon ^ {1/3})$,同时保证中央(联合)和当地隐私。我们的结果表明,通过利用Shuffle模型在保留本地隐私时,可以在JDP和LDP之间获得权衡。
translated by 谷歌翻译
我们考虑随机环境中在线线性回归的问题。我们派生了在线岭回归和前向算法的高概率遗憾。这使我们能够更准确地比较在线回归算法并消除有界观测和预测的假设。我们的研究由于其增强的界限和鲁棒性对正则化参数而代替脊,所以提出了前向算法的倡导者。此外,我们解释了如何将其集成在涉及线性函数近似的算法中以消除界限假设,而不会恶化理论界限。我们在线性强盗设置展示了这种修改,其中它产生了改进的遗憾范围。最后,我们提供数字实验来说明我们的结果并赞同我们的直觉。
translated by 谷歌翻译
通过计算机网络中的数据包路由激励,在线排队系统由队列接收不同速率的数据包组成。反复,他们将数据包发送到服务器,每个每一个只在大多数一个数据包处理一次。在集中式情况下,累积分组的数量保持有界(即,系统是\ Textit {stable}),只要服务率和到达率之间的比率大于1美元。在分散的案例中,当该比率大于2美元时,个人无遗憾的策略确保稳定。然而,Myopically最小化遗憾忽视了由于包裹到进一步的循环而导致的长期影响。另一方面,尽快减少长期成本导致稳定的纳什均衡,只要比率超过$ \ frac {e} {e-1} $。与分散的学习策略的稳定性低于2美元的比例是一个主要的剩余问题。我们首先争辩说,对于高达2美元的比例,学习策略的稳定性需要合作,因为自私最小化政策遗憾,\ Texit {患者}遗憾的遗憾,在这种情况下可能确实仍然不稳定。因此,我们认为合作队列并提出保证系统稳定性的第一次学习分散算法,只要速率比为1美元的比率,因此达到了与集中策略相当的性能。
translated by 谷歌翻译
我们在线学习进行在线学习以获得要分配的资源是时间的最佳分配。可能的应用程序的%示例包括计算服务器的作业调度,驾驶员填写一天的驾驶员,租赁房地产的房东等。代理人根据泊松过程顺序地接收任务提案,可以接受或拒绝提出的任务。如果她接受提案,她正忙于任务的持续时间,并获得取决于任务持续时间的奖励。如果她拒绝它,她仍然持有,直到新的任务提案到达。我们研究了代理的遗憾,首先,当她知道她的奖励功能但不知道任务持续时间的分配时,然后她不知道她的奖励功能。这种自然设置与上下文(单武装)匪徒承担相似之处,但与上下文相关的归一化奖励的关键差异取决于整个上下文的分布。
translated by 谷歌翻译
我们在反复决策中介绍了一种新颖的投资回报(ROI)最大化的理论框架。我们的环境受到使用案例的,公司经常接受技术创新建议,并希望快速决定是否值得实施。我们设计一种在一系列创新建议上学习ROI最大化决策政策的算法。我们的算法以$ \ min \ big \ {1 /(n \ delta ^ 2),n ^ {-1/3} \} $,其中$N $是创新的数量,$ \ delta $是$ \ pi $的次优差距。我们配方的一系列重大障碍,它将其从其他在线学习问题(如Burdits)中设置,是运行策略不提供对其性能的无偏见估计。
translated by 谷歌翻译